AI in sanità: il rischio non è l’algoritmo che sbaglia, è il sistema che non lo governa

È in salute, l’intelligenza artificiale? La domanda – volutamente provocatoria – ha aperto il terzo talk del Festival dell’Innovazione dei Life Science Excellence Awards con un obiettivo chiaro: spostare l’AI fuori dal recinto degli slogan e portarla dove conta davvero, lungo tutta la catena del valore, dalla ricerca alla produzione, fino alla diagnosi e al paziente. Perché l’adozione accelerata crea valore, sì, ma può anche generare rischi sistemici se non è governata. Nel confronto sono intervenuti Luca Magrì, Head of Strategy Excellence & Innovation, Divisione Pharma, Bayer Italia, Daniele Recchi, Direttore Generale, Piam Farmaceutici, Alex Dell’Era, Public Affairs and Communication, Canon Medical e Deborah Patitucci, Marketing Manager IMI & EE, GE HealthCare.

Il confine sottile tra “valore” e “rumore”

La prima parte della discussione si è concentrata su una distinzione che sembra banale solo finché non la si deve applicare: quando l’AI crea valore misurabile e quando resta hype. Per Luca Magrì, il criterio non è l’effetto “wow”, ma la capacità di spostare davvero il sistema: migliorare outcome, ridurre costi, tagliare burocrazia e rischi. Il resto è rumore. “Se l’intelligenza artificiale riesce a generare outcome migliori per i pazienti, ridurre i costi, la burocrazia e i rischi allora è valore. Altrimenti è rumore”.

Per spiegare perché oggi la linea tra valore e hype “si assottiglia”, Magrì parte dal punto in cui l’AI sta incidendo di più: la ricerca e sviluppo. Se lo sviluppo di un farmaco richiede anni, l’ambizione è ridurre tempi e passaggi anche del 40–50%, perché ogni mese guadagnato non è un vantaggio solo industriale: è innovazione che arriva prima ai pazienti.

Poi il discorso si sposta su un livello più concreto: il tempo. Magrì racconta due scene “di vita reale”. La prima riguarda l’aderenza terapeutica – quel 50% di pazienti cronici che non segue in modo regolare le cure – e l’uso di modelli che si adattano agli stili di vita per aiutare il paziente a non perdere il filo della terapia. La seconda è quasi una fotografia di corsia: un paziente cardiovascolare, settimane di ricovero, decine di referti; e poi il medico che, a fine percorso, impiega almeno due ore per scrivere la lettera di dimissione. Tempo sottratto alla relazione e alla cura. L’idea, qui, è usare l’AI per togliere burocrazia e restituire minuti e ore all’interazione medico–paziente: proprio lì, sostiene, si gioca una parte decisiva della fiducia.

Dalla fabbrica alla supply chain: l’AI che rende competitivo il quotidiano

Nel confronto Daniele Recchi entra nella prospettiva di un’industria nazionale e prova a rispondere con un criterio pragmatico: dove l’AI è già oggi un vantaggio competitivo misurabile?

La sua risposta è una triade. Produzione, prima di tutto: ottimizzare processi, ridurre scarti e costi, aumentare qualità, con un supporto anche alle logiche di compliance e controllo. Poi supply chain e forecasting: usare l’AI per simulare scenari in un contesto instabile, evitando sia overstock (costo) sia carenze (rischio per il paziente). Infine, l’uso dei modelli nell’analisi di dati clinici – da studi e dal mondo reale – per estrarre insight utili. Con un avverimento: alcune applicazioni più “pesanti” (ad esempio lo sviluppo di nuove molecole) per aziende di media taglia restano ancora poco accessibili finché non scendono costi e barriere.

Sul tema della responsabilità e della trasparenza Recchi è netto: “Quando applichiamo l’AI ai processi dobbiamo garantire che l’algoritmo sia trasparente, rigoroso e comunicabile anche nei suoi bias, in modo che chi utilizza l’output sappia quali sono i limiti del sistema”. E c’è un rischio ancora più umano, quindi più concreto: che l’AI porti a una forma di deresponsabilizzazione, a lasciare che “decida lei” invece di supportare chi deve decidere.

Imaging: quando accelerare vuol dire curare meglio

Nel dialogo emerge anche un tema che, in sanità, non è solo efficienza: velocizzare può voler dire ridurre rischio, migliorare esperienza del paziente, rendere possibili esami prima impraticabili. Deborah Patitucci cita un esempio quantificato: applicazioni e algoritmi in imaging capaci di ridurre la durata di un esame dell’86%. Il punto non è soltanto “fare più esami”. È cosa significa per i pazienti: prendendo l’esempio della risonanza magnetica potrebbe significare meno tempo sdraiati, meno difficoltà per chi non tollera lunghi periodi di immobilità, meno criticità nei percorsi pediatrici che richiedono anestesia.

E c’è un’ulteriore conseguenza clinica, soprattutto in ambito cardiovascolare: acquisizioni molto rapide possono aprire la porta alla diagnostica anche per pazienti aritmici o con extrasistoli che, con protocolli lunghi, rischiano di essere esclusi. Poi Patitucci scende ancora di scala e racconta un oggetto quasi “da pronto soccorso”: un ecografo portatile grande come un rasoio, utilizzabile con una mano. Qui l’AI non “fa la diagnosi”: guida la mano, aiuta nel corretto posizionamento, aumenta la probabilità di ottenere immagini davvero diagnostiche anche quando chi esegue l’esame non è uno specialista esperto.

E per l’efficienza operativa di sistema introduce l’idea di una “torre di controllo”: un Command Center che integra in tempo reale dati da diagnostiche, pronto soccorso e reparti per ottimizzare flussi, tempi e persino l’assegnazione dei posti letto, superando rigidità strutturali tipiche dell’organizzazione per reparti.

Uscire dalla polarizzazione: entusiasmo cieco o paura della black box

Nel confronto Alex Dell’Era sceglie un ingresso “di metodo”: se si vuole parlare di valore reale, bisogna smettere di oscillare tra due estremi – entusiasmo incondizionato (“è tutto fantastico”) e paura della black box. L’AI non è più promessa futuristica: è già nel dispositivo. La domanda, semmai, è dove crea valore misurabile. La sua mappa del valore in diagnostica ha tre punti. Il primo è la consistenza: ridurre variabilità tecnica (rumore, artefatti, differenze operative) significa immagini più stabili, protocolli standardizzati, riproducibilità. Il secondo è la sicurezza del percorso: quando l’AI aiuta a prioritizzare casi critici e rende più fluido il workflow, incide sui tempi di risposta.

È qui che Dell’Era richiama un dato che non lascia scampo alla retorica: in un ictus si perdono circa 2 milioni di neuroni al minuto, per questo si dice time is brain. Ridurre anche pochi minuti significa preservare funzione neurologica e cambiare il destino clinico. Il terzo è il più invisibile, ma forse il più importante: il tempo restituito al clinico. Dell’Era chiarisce un equivoco ricorrente: l’AI può supportare attività ripetitive e gestione del carico, ma non sostituisce la responsabilità, che resta umana.

La governance come infrastruttura di fiducia

Se la prima parte del confronto racconta l’impatto, la seconda mette a fuoco le condizioni per scalare senza trasformare l’accelerazione in rischio sistemico. Magrì rifiuta l’idea della governance come freno burocratico e la descrive come un’infrastruttura di fiducia tra partner. I suoi “non negoziabili” ruotano attorno a tre punti: accountability chiara e decisione finale in capo al medico; rigore scientifico applicato anche ai modelli (perché la velocità può accelerare anche bias e drift); e data governance pensata dall’inizio, non aggiunta dopo. In sintesi: servono guard rail calibrati sul rischio, non una griglia uguale per tutto. Recchi aggancia il tema da un punto di vista aziendale: nelle Life Science la responsabilità è già alta, l’AI la rende più “sofisticata” e adattiva. Per questo, dice, è essenziale evitare opacità e garantire trasparenza anche nel funzionamento degli algoritmi. Patitucci traduce la governance in leve operative: validazione clinica (dati verificati e diversificati), riproducibilità nel tempo ed explainability, cioè la possibilità di capire come un algoritmo è arrivato a un risultato.

Sulla cybersecurity insiste su una logica by design: sistemi pensati dall’inizio per minimizzare vulnerabilità, con controlli granulari degli accessi, audit end-to-end e aggiornamenti sicuri. Ma aggiunge un elemento spesso sottovalutato: la formazione di chi usa la tecnologia, anche dell’utente “base”. Infine, l’interoperabilità: soluzioni bellissime ma isolate valgono poco se non si integrano in percorsi e dati che aiutino davvero a decidere sul singolo paziente.

Dell’Era chiude riportando la governance dal singolo algoritmo al contesto più ampio in cui la tecnologia opera: “Il rischio non è tanto che l’algoritmo sbagli. Il problema è che il sistema non sia progettato per governarlo”. Per questo chiede modelli che accompagnino l’AI lungo tutto il ciclo di vita, con monitoraggio continuo, evidenze su casi reali, audit e aggiornamenti controllati. E rilancia una distinzione cruciale: non confondere conformità normativa e valore clinico. “Tra dieci anni non ci chiederemo se l’AI funziona, ma se siamo stati capaci di governarla quando era il momento giusto”. Da qui l’idea di un modello collaborativo, capace di mettere insieme industria, strutture sanitarie, ingegneria clinica, società scientifiche e istituzioni.

Cultura, metodo, competenze (per difendere la fiducia)

Quando arriva la domanda finale – una priorità per i prossimi cinque anni – il confronto converge su un punto: più che tecnologia o norme, serve cultura. Cultura del dato, della valutazione continua, della trasparenza e della responsabilità. Perché la traiettoria è già segnata: dispositivi e soluzioni AI-enabled stanno entrando a ritmo crescente. La differenza tra infrastruttura e frattura la farà la capacità di adottarle con metodo, competenze e criteri condivisi.

Il risultato, più che una risposta secca alla domanda “l’AI è in salute?”, è un messaggio di sistema: l’AI accelera davvero quando restituisce tempo, riduce variabilità, migliora sicurezza e rende più efficienti processi e percorsi. Ma la sua tenuta, e la sua credibilità, dipendono da ciò che il confronto ha richiamato più volte con parole diverse: fiducia. Quella che si costruisce con responsabilità umana, governance tracciabile e competenze capaci di stare al passo della velocità tecnologica.

Related posts